CONFIG: remove CONFIG_SMP #ifdefs
authorAndrew Cooper <andrew.cooper3@citrix.com>
Thu, 9 Feb 2012 14:14:20 +0000 (06:14 -0800)
committerAndrew Cooper <andrew.cooper3@citrix.com>
Thu, 9 Feb 2012 14:14:20 +0000 (06:14 -0800)
CONFIG_SMP is always enabled and !CONFIG_SMP is not supported.  So
simplify the code a little by removing all #ifdefs.

Signed-off-by: Andrew Cooper <andrew.cooper3@citrix.com>
Committed-by: Keir Fraser <keir@xen.org>
12 files changed:
xen/arch/x86/apic.c
xen/arch/x86/cpu/amd.c
xen/arch/x86/cpu/mtrr/cyrix.c
xen/arch/x86/cpu/mtrr/main.c
xen/arch/x86/io_apic.c
xen/arch/x86/oprofile/nmi_int.c
xen/arch/x86/oprofile/op_model_p4.c
xen/common/rcupdate.c
xen/include/asm-x86/config.h
xen/include/asm-x86/processor.h
xen/include/asm-x86/smp.h
xen/include/asm-x86/system.h

index 04b9a28f473c52f01c062867c01cfeb0739cf058..f3f1781880174e9333b4f5534f805beae79d026d 100644 (file)
@@ -145,9 +145,8 @@ void ack_bad_irq(unsigned int irq)
 
 void __init apic_intr_init(void)
 {
-#ifdef CONFIG_SMP
     smp_intr_init();
-#endif
+
     /* self generated IPI for local APIC timer */
     set_intr_gate(LOCAL_TIMER_VECTOR, apic_timer_interrupt);
 
index f7019915c027620e29e3a2a225f518cf2a8f350b..5b245264a97d1f14691d85c608c61fa4858752fb 100644 (file)
@@ -370,7 +370,6 @@ static void __devinit init_amd(struct cpuinfo_x86 *c)
 {
        u32 l, h;
 
-#ifdef CONFIG_SMP
        unsigned long long value;
 
        /* Disable TLB flush filter by setting HWCR.FFDIS on K8
@@ -384,7 +383,6 @@ static void __devinit init_amd(struct cpuinfo_x86 *c)
                value |= 1 << 6;
                wrmsrl(MSR_K7_HWCR, value);
        }
-#endif
 
        /*
         *      FIXME: We should handle the K5 here. Set up the write
index 03b09476095002eda124c83e6a05f0aed37e298b..d27005144d7e6b4d0edca5b24c122c1321b70c54 100644 (file)
@@ -279,9 +279,7 @@ cyrix_arr_init(void)
        struct set_mtrr_context ctxt;
        unsigned char ccr[7];
        int ccrc[7] = { 0, 0, 0, 0, 0, 0, 0 };
-#ifdef CONFIG_SMP
        int i;
-#endif
 
        /* flush cache and enable MAPEN */
        set_mtrr_prepare_save(&ctxt);
@@ -334,14 +332,13 @@ cyrix_arr_init(void)
                ccrc[5] = 1;
                setCx86(CX86_CCR5, ccr[5]);
        }
-#ifdef CONFIG_SMP
+
        for (i = 0; i < 7; i++)
                ccr_state[i] = ccr[i];
        for (i = 0; i < 8; i++)
                cyrix_get_arr(i,
                              &arr_state[i].base, &arr_state[i].size,
                              &arr_state[i].type);
-#endif
 
        set_mtrr_done(&ctxt);   /* flush cache and disable MAPEN */
 
index e685c189f52c0f447b906eda7d8e67d2c93da9ed..2ef3799ae847be50babaa9c54c0b7a6d299412a5 100644 (file)
@@ -142,8 +142,6 @@ struct set_mtrr_data {
  */
 int hold_mtrr_updates_on_aps;
 
-#ifdef CONFIG_SMP
-
 static void ipi_handler(void *info)
 /*  [SUMMARY] Synchronisation handler. Executed by "other" CPUs.
     [RETURNS] Nothing.
@@ -175,8 +173,6 @@ static void ipi_handler(void *info)
        local_irq_restore(flags);
 }
 
-#endif
-
 static inline int types_compatible(mtrr_type type1, mtrr_type type2) {
        return type1 == MTRR_TYPE_UNCACHABLE ||
               type2 == MTRR_TYPE_UNCACHABLE ||
index c833820909e449bfdd85f189496a7df38a2cdcdb..1c8334924a2239adbbc5ade2b229e86530f13718 100644 (file)
@@ -513,7 +513,6 @@ static void clear_IO_APIC (void)
     }
 }
 
-#ifdef CONFIG_SMP
 static void
 set_ioapic_affinity_irq(struct irq_desc *desc, const cpumask_t *mask)
 {
@@ -550,7 +549,6 @@ set_ioapic_affinity_irq(struct irq_desc *desc, const cpumask_t *mask)
     spin_unlock_irqrestore(&ioapic_lock, flags);
 
 }
-#endif /* CONFIG_SMP */
 
 /*
  * Find the IRQ entry number of a certain pin.
@@ -630,7 +628,6 @@ static int pin_2_irq(int idx, int apic, int pin);
  * we need to reprogram the ioredtbls to cater for the cpus which have come online
  * so mask in all cases should simply be TARGET_CPUS
  */
-#ifdef CONFIG_SMP
 void /*__init*/ setup_ioapic_dest(void)
 {
     int pin, ioapic, irq, irq_entry;
@@ -653,7 +650,6 @@ void /*__init*/ setup_ioapic_dest(void)
 
     }
 }
-#endif
 
 /*
  * EISA Edge/Level control register, ELCR
index 379046127d7e1c22a67ad1bf65290cfe80c5be82..774f67677f1a9a8ff5d1adb7f75caf32c2e5e3df 100644 (file)
@@ -304,11 +304,6 @@ static int __init p4_init(char ** cpu_type)
                return 0;
        }
 
-#ifndef CONFIG_SMP
-       *cpu_type = "i386/p4", XENOPROF_CPU_TYPE_SIZE);
-       model = &op_p4_spec;
-       return 1;
-#else
        switch (current_cpu_data.x86_num_siblings) {
                case 1:
                        *cpu_type = "i386/p4";
@@ -320,7 +315,7 @@ static int __init p4_init(char ** cpu_type)
                        model = &op_p4_ht2_spec;
                        return 1;
        }
-#endif
+
        printk("Xenoprof ERROR: P4 HyperThreading detected with > 2 threads\n");
 
        return 0;
index fabff9aa0e805671e19f017b8ed13ebd243fc6f3..c9f832b3b159990fc02e1b9a7963db8dd599aee4 100644 (file)
@@ -40,19 +40,13 @@ static unsigned int num_counters = NUM_COUNTERS_NON_HT;
    kernel boot-time. */
 static inline void setup_num_counters(void)
 {
-#ifdef CONFIG_SMP
        if (boot_cpu_data.x86_num_siblings == 2)        /* XXX */
                num_counters = NUM_COUNTERS_HT2;
-#endif
 }
 
 static int inline addr_increment(void)
 {
-#ifdef CONFIG_SMP
        return boot_cpu_data.x86_num_siblings == 2 ? 2 : 1;
-#else
-       return 1;
-#endif
 }
 
 
@@ -383,11 +377,8 @@ static const struct p4_event_binding p4_events[NUM_EVENTS] = {
    or "odd" part of all the divided resources. */
 static unsigned int get_stagger(void)
 {
-#ifdef CONFIG_SMP
        int cpu = smp_processor_id();
        return (cpu != cpumask_first(per_cpu(cpu_sibling_mask, cpu)));
-#endif 
-       return 0;
 }
 
 
@@ -709,7 +700,6 @@ static void p4_stop(struct op_msrs const * const msrs)
 }
 
 
-#ifdef CONFIG_SMP
 struct op_x86_model_spec const op_p4_ht2_spec = {
        .num_counters = NUM_COUNTERS_HT2,
        .num_controls = NUM_CONTROLS_HT2,
@@ -719,7 +709,7 @@ struct op_x86_model_spec const op_p4_ht2_spec = {
        .start = &p4_start,
        .stop = &p4_stop
 };
-#endif
+
 
 struct op_x86_model_spec const op_p4_spec = {
        .num_counters = NUM_COUNTERS_NON_HT,
index 6e6483e10015d2bfedf32980f85aa8facd0f030e..158e2d554bd57a8194a81c34c8e1b966ba0bddf9 100644 (file)
@@ -83,9 +83,7 @@ struct rcu_data {
     long            blimit;           /* Upper limit on a processed batch */
     int cpu;
     struct rcu_head barrier;
-#ifdef CONFIG_SMP
     long            last_rs_qlen;     /* qlen during the last resched */
-#endif
 };
 
 static DEFINE_PER_CPU(struct rcu_data, rcu_data);
index 28f5e2941fe870e87a955af07b4ec88a335d9879..e3e6c321375674c6b5afd07ba168334c534f52c7 100644 (file)
@@ -21,7 +21,6 @@
 #define CONFIG_X86 1
 #define CONFIG_X86_HT 1
 #define CONFIG_PAGING_ASSISTANCE 1
-#define CONFIG_SMP 1
 #define CONFIG_X86_LOCAL_APIC 1
 #define CONFIG_X86_GOOD_APIC 1
 #define CONFIG_X86_IO_APIC 1
index c314f1e79608d069c78c37c3e53ae0a919d01189..718d7191961c47e83bea7a7b6f794dfdbacc0435 100644 (file)
@@ -189,13 +189,8 @@ struct cpuinfo_x86 {
 
 extern struct cpuinfo_x86 boot_cpu_data;
 
-#ifdef CONFIG_SMP
 extern struct cpuinfo_x86 cpu_data[];
 #define current_cpu_data cpu_data[smp_processor_id()]
-#else
-#define cpu_data (&boot_cpu_data)
-#define current_cpu_data boot_cpu_data
-#endif
 
 extern void set_cpuid_faulting(bool_t enable);
 
index f8caff292d8a8d1a7d9fca6fa44fdd5331249df5..8d5e7147b87dbc63c0e1896f669698aabbb97abc 100644 (file)
@@ -17,7 +17,6 @@
 #endif
 
 #define BAD_APICID -1U
-#ifdef CONFIG_SMP
 #ifndef __ASSEMBLY__
 
 /*
@@ -65,11 +64,4 @@ void __stop_this_cpu(void);
 
 #endif /* !__ASSEMBLY__ */
 
-#else /* CONFIG_SMP */
-
-#define cpu_physical_id(cpu)           boot_cpu_physical_apicid
-
-#define NO_PROC_ID             0xFF            /* No processor magic marker */
-
-#endif
 #endif
index 686957629538a435be7298871fb6f79cd7cd227d..e3601c306088d0464b2c74f5594abff1f6357e96 100644 (file)
@@ -154,15 +154,9 @@ static always_inline unsigned long __cmpxchg(
 #define rmb()           barrier()
 #define wmb()           barrier()
 
-#ifdef CONFIG_SMP
 #define smp_mb()        mb()
 #define smp_rmb()       rmb()
 #define smp_wmb()       wmb()
-#else
-#define smp_mb()        barrier()
-#define smp_rmb()       barrier()
-#define smp_wmb()       barrier()
-#endif
 
 #define set_mb(var, value) do { xchg(&var, value); } while (0)
 #define set_wmb(var, value) do { var = value; wmb(); } while (0)